La spinta di Meta per la "libertà di espressione" porta a un calo notevole dei contenuti rimossi

Meta ha annunciato a gennaio che avrebbe interrotto alcune attività di moderazione dei contenuti, allentato le sue regole e posto maggiore enfasi sul sostegno alla "libertà di espressione". I cambiamenti hanno portato a una riduzione dei post rimossi da Facebook e Instagram, come reso noto dall'azienda giovedì nel suo rapporto trimestrale sull'applicazione degli standard della community. Meta ha affermato che le sue nuove policy hanno contribuito a dimezzare le rimozioni di contenuti errati negli Stati Uniti, senza esporre gli utenti a contenuti più offensivi rispetto a prima delle modifiche.
Il nuovo rapporto , citato in un aggiornamento di un post sul blog di gennaio da Joel Kaplan, responsabile degli affari globali di Meta, mostra che Meta ha rimosso quasi un terzo di contenuti in meno su Facebook e Instagram a livello globale per violazione delle sue regole da gennaio a marzo di quest'anno rispetto al trimestre precedente, ovvero circa 1,6 miliardi di elementi rispetto a poco meno di 2,4 miliardi, secondo un'analisi di WIRED. Negli ultimi trimestri, il numero totale di rimozioni trimestrali del gigante della tecnologia era in precedenza aumentato o rimasto invariato.
Su Instagram e Facebook, Meta ha segnalato una riduzione di circa il 50% dei post rimossi per violazione delle regole anti-spam, quasi il 36% in meno per contenuti che mettono in pericolo i minori e quasi il 29% in meno per comportamenti d'odio. Le rimozioni sono aumentate solo in una delle 11 categorie principali elencate da Meta, ovvero i contenuti su suicidio e autolesionismo.
La quantità di contenuti rimossi da Meta varia regolarmente da un trimestre all'altro e diversi fattori potrebbero aver contribuito al calo delle rimozioni. Tuttavia, l'azienda stessa ha riconosciuto che "le modifiche apportate per ridurre gli errori di applicazione" sono state una delle ragioni di questo forte calo.
"In diverse aree politiche abbiamo riscontrato una diminuzione della quantità di contenuti su cui è stata intrapresa un'azione e una diminuzione della percentuale di contenuti su cui abbiamo intrapreso azioni prima che un utente li segnalasse", ha scritto l'azienda. "Ciò è dovuto in parte alle modifiche che abbiamo apportato per garantire di commettere meno errori. Abbiamo anche riscontrato una corrispondente diminuzione della quantità di contenuti sottoposti a ricorso e infine ripristinati".
All'inizio dell'anno, Meta ha allentato alcune delle sue regole sui contenuti, che il CEO Mark Zuckerberg ha descritto come "semplicemente fuori dal contesto mainstream". Le modifiche hanno permesso agli utenti di Instagram e Facebook di utilizzare un linguaggio che gli attivisti per i diritti umani considerano odioso nei confronti degli immigrati o delle persone che si identificano come transgender. Ad esempio, Meta ora consente "accuse di malattie mentali o anormalità basate sul genere o sull'orientamento sessuale".
Come parte di questi radicali cambiamenti, annunciati proprio mentre Donald Trump si preparava a iniziare il suo secondo mandato da presidente degli Stati Uniti, Meta ha anche smesso di fare affidamento su strumenti automatizzati per identificare e rimuovere i post sospettati di violazioni meno gravi delle sue regole perché, a suo dire, presentavano alti tassi di errore, provocando frustrazione negli utenti.
Nel primo trimestre di quest'anno, i sistemi automatizzati di Meta hanno rappresentato il 97,4% dei contenuti rimossi da Instagram in base alle politiche dell'azienda in materia di incitamento all'odio, in calo di appena 1 punto percentuale rispetto alla fine dell'anno scorso. (Le segnalazioni degli utenti a Meta hanno attivato la percentuale rimanente.) Tuttavia, le rimozioni automatiche per bullismo e molestie su Facebook sono diminuite di quasi 12 punti percentuali. In alcune categorie, come la nudità, i sistemi di Meta sono stati leggermente più proattivi rispetto al trimestre precedente.
Gli utenti possono presentare ricorso contro la rimozione dei contenuti e Meta a volte ripristina i post che ritiene siano stati rimossi ingiustamente. Nell'aggiornamento del post sul blog di Kaplan, Meta ha evidenziato la forte diminuzione delle rimozioni errate. "Questo miglioramento fa seguito all'impegno assunto a gennaio di concentrarci sull'applicazione proattiva delle violazioni di maggiore gravità e sul miglioramento della nostra accuratezza attraverso audit di sistema e segnalazioni aggiuntive", ha scritto l'azienda.
A gennaio, alcuni dipendenti di Meta hanno dichiarato a WIRED di essere preoccupati che i cambiamenti di politica aziendale potessero dare origine a un pericoloso caos su Facebook e Instagram, trasformando le piattaforme in luoghi sempre più inospitali in cui gli utenti possono conversare e trascorrere il tempo.
Tuttavia, secondo i suoi stessi dati, Meta stima che gli utenti siano stati esposti in media a circa uno o due contenuti di odio ogni 10.000 post visualizzati nel primo trimestre, in calo rispetto ai circa due o tre della fine dello scorso anno. E le piattaforme di Meta hanno continuato a crescere: circa 3,43 miliardi di persone a marzo hanno utilizzato almeno una delle sue app, tra cui WhatsApp e Messenger, in aumento rispetto ai 3,35 miliardi di dicembre.
wired